ChatGPT puede identificar cuando alguien está mintiendo

ChatGPT consigue identificar cuando alguien está mintiendo
ChatGPT consigue identificar cuando alguien está mintiendo (Foto: Solen Feyissa/Unsplash)

Un experimento realizado con ChatGPT reveló que la inteligencia artificial parece ser capaz de identificar cuándo alguien está mintiendo.

El chatbot explicó que las personas que mienten “no usan un conjunto universalmente fijo de palabras” y parecen usar más palabras asociadas a la mentira.

Aunque la IA admitió que el simple uso de estas palabras no prueba por sí solo que alguien está mintiendo, esta información, cuando se analiza junto con señales de lenguaje corporal, resulta efectiva para detectar la mentira.

Después de las pruebas, realizadas por el portal argentino La Nación, ChatGPT compartió una lista de los términos más usados por los mentirosos como método sutil para manipular los hechos.

El chatbot mencionó términos como “Honestamente” y “Estoy diciendo la verdad” como formas que los mentirosos usan para dar credibilidad a una narrativa falsa.

“Para ser honesto” se usa para transmitir confianza, “Lo juro” puede usarse como respuesta ante una reacción de incredulidad, mientras que “Nunca” o “Siempre” se emplean como forma de exageración para que la mentira parezca más convincente.

“Si no me equivoco” y “No recuerdo bien” transmiten ambigüedad, que se usa como vía de escape si el mentiroso es confrontado.

Frases como “¿Por qué te mentiría?” y “Como ya dije antes” actúan como formas de manipulación, haciéndote dudar de ti mismo y de tu propia memoria.

Por último, términos como “La gente dice” se usan cuando la persona pretende esconderse en fuentes vagas en lugar de dar una respuesta directa, y “Eso no tiene sentido” se usa frecuentemente cuando el mentiroso desacredita la lógica del otro en lugar de proporcionar una defensa al argumento.

Foto y video: Unsplash. Este contenido fue creado con la ayuda de la IA y revisado por el equipo editorial.

Back to top